Tesla-ähnliche autonome Fahrzeuge bauen: Die Technologie, die nur mit Kameras die Welt sieht

Pioniere im Bereich autonomer Fahrzeuge, Tesla. Warum haben sie sich für eine Methode entschieden, die nur Kamerabilder zur Wahrnehmung der Umgebung nutzt und LiDAR und Radar auslässt? Diese Entscheidung basiert nicht einfach auf Kostenersparnissen, sondern auf einem kühnen Vision: ein autonomes Fahrzeug zu schaffen, das die Welt wie ein Mensch wahrnimmt und entscheidet. Besonders die Einführung des End-to-End Tiefenlernens in Version 12 markiert einen vollständig neuen Ansatz im Vergleich zur traditionellen modularen Methode.

Ein traditionelles autonomes Fahrzeugsystem besteht aus mehreren Modulen, darunter Wahrnehmung (Perception), Vorhersage (Prediction), Planung (Planning) und Steuerung (Control). Jedes Modul wird unabhängig entwickelt und anschließend verbunden. Dies kann zu Informationsverlust oder Fehlern führen und die optimale Ausgestaltung des gesamten Systems erschweren.

Im Gegensatz dazu nimmt Tesla mit seinem End-to-End Tiefenlernansatz Bilder von Kamera-Sensoren als Eingabe auf und gibt direkt Steuersignale für Lenkung, Beschleunigung und Bremsung aus. Diese Methode integriert das gesamte autonome Fahrzeugsystem in ein riesiges neuronales Netzwerk, ähnlich dem Prozess, bei dem Menschen mit ihren Augen wahrnehmen und ihre Entscheidungen durch ihr Gehirn treffen. Dies vereinfacht die Datenverarbeitung, maximiert die Effizienz des gesamten Systems und erhöht das Potenzial zur Bewältigung unvorhersehbarer Situationen.

In den folgenden Kapiteln wird Tesla’s einzigartiger visionärer, End-to-End-Tiefenlernansatz für autonomes Fahren detailliert analysiert, sowie Methoden vorgestellt, wie man dies im CARLA-Simulator implementieren kann.

Diese Inhalte werden abgedeckt

Hier können Sie

Ohne LiDAR, ohne Radar, nur mit Kameras. Erleben Sie Tesla’s mutigen Ansatz im CARLA-Simulator.